Boosting

Il boosting è una tecnica di machine learning che rientra nella categoria dell'Apprendimento ensemble. Nel boosting più modelli vengono generati consecutivamente dando sempre più peso agli errori effettuati nei modelli precedenti. In questo modo si creano modelli via via più "attenti" agli aspetti che hanno causato inesattezze nei modelli precedenti, ottenendo infine un modello aggregato avente migliore accuratezza di ciascun modello che lo costituisce[1].

In algoritmi come Adaboost[2], l'output del meta-classificatore è dato dalla somma pesata delle predizioni dei singoli modelli. Ogni qual volta un modello viene addestrato, ci sarà una fase di ripesaggio delle istanze. L'algoritmo di boosting tenderà a dare un peso maggiore alle istanze misclassificate, nella speranza che il successivo modello sia più esperto su quest'ultime.

In generale si ha che l'errore di predizione in un problema di apprendimento supervisionato è dato da:

Il boosting mira principalmente a ridurre il bias. Altre tecniche di ensemble learning, come il bagging, mirano invece a ridurre la varianza.

  1. ^ De Mauro, Andrea., Big data analytics : guida per iniziare a classificare e interpretare dati con il machine learning, Apogeo, 2019, ISBN 9788850334780, OCLC 1065010076. URL consultato il 10 novembre 2019.
  2. ^ (EN) Trevor Hastie, Saharon Rosset e Ji Zhu, Multi-class AdaBoost, in Statistics and Its Interface, vol. 2, n. 3, 2009, pp. 349–360, DOI:10.4310/SII.2009.v2.n3.a8. URL consultato il 10 novembre 2019.

© MMXXIII Rich X Search. We shall prevail. All rights reserved. Rich X Search